最新视频 【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新
最新视频 [pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)[pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)
最新视频 [pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
最新视频 [pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
最新视频 pytorch证明CNN-MNIST完全可以采用relu,不知道为什么非得用tanh,这不是给自己找不痛快pytorch证明CNN-MNIST完全可以采用relu,不知道为什么非得用tanh,这不是给自己找不痛快